Световни новини без цензура!
Как да разберете кога AI е достатъчно мощен, за да бъде опасен? Регулаторите се опитват да си направят сметката
Снимка: apnews.com
AP News | 2025-01-12 | 05:02:06

Как да разберете кога AI е достатъчно мощен, за да бъде опасен? Регулаторите се опитват да си направят сметката

Как да разберете дали една система с изкуствен интелект е толкова мощна, че представлява опасност за сигурността и не трябва да бъде отприщвана без внимателен надзор?

За регулаторите, които се опитват да поставят парапети на AI, това е най-вече за аритметиката. По-конкретно, AI модел, обучен на операции с плаваща запетая от 10 до 26, сега трябва да бъде докладван на правителството на САЩ и скоро може да предизвика още по-строги изисквания в Калифорния.

Какво да кажа? Е, ако броите нулите, това са 100 000 000 000 000 000 000 000 000 или 100 септилиона изчисления за обучение на AI системи на огромни масиви от данни.

Това, което сигнализира на някои законодатели и защитници на AI безопасността, е ниво на изчисление мощност, която може да позволи бързо усъвършенстване на AI технологията за създаване или разпространение на оръжия за масово унищожение или извършване на катастрофални кибератаки.

Тези, които са изработили такива регулации, признават, че те са несъвършена отправна точка за разграничаване на днешните най-ефективни генеративни AI системи - до голяма степен направени от базирани в Калифорния компании като Anthropic, Google, Meta Platforms и създателя на ChatGPT OpenAI – от следващото поколение, което може да бъде още по-мощен.

Критиците се нахвърлиха върху праговете като произволни - опит на правителствата да регулират математиката. Добавящо към объркването е, че някои правила определят базиран на скоростта изчислителен праг – колко операции с плаваща запетая в секунда, известни като провали – докато други се основават на кумулативен брой изчисления, независимо колко време отнемат.

„От 10 до 26-ия провал“, каза рисковият капиталист Бен Хоровиц в подкаст това лято. „Ами ако това е размерът на модела, от който се нуждаете, например, за да излекувате рак?“

Изпълнителна заповед, подписана от президента Джо Байдън миналата година, разчита на праг от 10 до 26. Същото важи и за новоприетото законодателство за безопасност на изкуствения интелект в Калифорния – което губернаторът Гавин Нюсъм има до 30 септември да подпише закон или да наложи вето. Калифорния добавя втори показател към уравнението: регулираните AI модели също трябва да струват поне 100 милиона долара за изграждане.

Следвайки стъпките на Байдън, широкообхватният Закон за изкуствения интелект на Европейския съюз също измерва операции с плаваща запетая, но поставя летвата 10 пъти по-ниска при 10 на 25-та степен. Това обхваща някои AI системи, които вече работят. Правителството на Китай също разгледа измерването на изчислителната мощност, за да определи кои AI системи се нуждаят от предпазни мерки.

Нито един публично достъпен модел не отговаря на по-високия праг на Калифорния, въпреки че е вероятно някои компании вече да са започнали да ги създават. Ако е така, те трябва да споделят определени подробности и предпазни мерки с правителството на САЩ. Байдън използва закон от епохата на Корейската война, за да принуди технологичните компании да предупреждават Министерството на търговията на САЩ, ако изграждат такива AI модели.

Изследователите на AI все още обсъждат как най-добре да оценят възможностите на най-новия генеративен AI технология и как тя се сравнява с човешкия интелект. Има тестове, които оценяват AI относно решаването на пъзели, логическите разсъждения или колко бързо и точно предсказва какъв текст ще отговори на запитването на чатбот на човек. Тези измервания помагат да се оцени полезността на AI инструмента за дадена задача, но няма лесен начин да се разбере кой от тях е с толкова широки възможности, че да представлява опасност за човечеството.

„Това изчисление, това число на флопа, по общ консенсус, е нещо като най-доброто нещо, което имаме в тази насока“, каза физикът Антъни Агире, изпълнителен директор на Future of Life Institute, който се застъпи за приемането на Сената на Калифорния Законопроект 1047 и други правила за безопасност на ИИ по света.

Аритметиката с плаваща запетая може да звучи фантастично, „но всъщност това са просто числа, които се добавят или умножават заедно“, което я прави един от най-простите начини за оценка на способността и риска на AI модел, каза Агире.

>

„Повечето от това, което правят тези неща, е просто да умножават големи таблици с числа заедно“, каза той. „Можете просто да помислите да напишете няколко числа в калкулатора си и да ги добавите или умножите. И това е, което прави – десет трилиона пъти или сто трилиона пъти.“

За някои технологични лидери обаче това е твърде проста и твърдо кодирана метрика. Няма „ясна научна подкрепа“ за използването на такива показатели като заместител на риска, твърди компютърният учен Сара Хукър, която ръководи изследователския отдел с нестопанска цел на AI компанията Cohere, в статия от юли.

„Изчислителните прагове, както се прилагат в момента, са късогледи и вероятно няма да успеят да намалят риска“, написа тя.

Рисковият капиталист Хоровиц и неговият бизнес партньор Марк Андреесен, основатели на влиятелната инвестиционна фирма от Силиконовата долина Andreessen Horowitz , атакуваха администрацията на Байдън, както и законодателите в Калифорния за регулациите на ИИ, според които те биха могли да потушат възникващ ИИ стартираща индустрия.

За Хоровиц поставянето на ограничения върху „колко математика ви е позволено да правите“ отразява погрешно убеждение, че ще има само шепа големи компании, които ще създават най-способните модели и можете да поставите „ горящи обръчи пред тях и те ще скочат през тях и всичко е наред.“

В отговор на критиките спонсорът на законодателството на Калифорния изпрати писмо до Andreessen Horowitz това лято, защитавайки законопроекта, включително неговите регулаторни прагове.

Регулирането при над 10 до 26 е „ясен начин да изключим от изискванията за изпитване за безопасност много модели, за които знаем, въз основа на настоящите доказателства, че нямат способността да причиняват критични щети“, пише щатският сенатор Скот Винер от San Франциско. Съществуващите публично пуснати модели „са тествани за изключително опасни способности и няма да бъдат обхванати от законопроекта“, каза Винер.

И Винер, и изпълнителната заповед на Байдън третират показателя като временен, който може да бъде коригиран по-късно.

Ясин Джернайт, който работи по политически изследвания в компанията за изкуствен интелект Hugging Face, каза, че изчислителната метрика се е появила „добросъвестно“ преди миналогодишната заповед на Байдън, но вече започва да остарява. Разработчиците на AI правят повече с по-малки модели, изискващи по-малко изчислителна мощност, докато потенциалните вреди от по-широко използваните AI продукти няма да предизвикат предложената проверка от Калифорния.

„Някои модели ще имат драстично по-голямо въздействие върху обществото и те трябва да се поддържат с по-висок стандарт, докато някои други са по-проучвателни и може да няма смисъл да има същия вид процес за да ги сертифицираме“, каза Джернайт.

Агире каза, че има смисъл регулаторите да бъдат пъргави, но той характеризира известно противопоставяне на прага като опит да се избегне каквото и да е регулиране на AI системите тъй като стават по-способни.

„Всичко това се случва много бързо“, каза Агире. „Мисля, че има основателна критика, че тези прагове не улавят точно това, което искаме да уловят. Но мисля, че е лош аргумент да преминем от това към „Е, просто не трябва да правим нищо и просто да стискаме палци и да се надяваме на най-доброто.“

Източник: apnews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!